害怕AI智能叛變  Google DeepMind設專責小組研道德問題

Net+

發布時間: 2017/10/06 16:51

最後更新: 2017/10/06 17:15

分享:

分享:

相片來源:法新社

不少AI專家曾警告,人工智能(AI)發展太快,人類未必可以控制一切。早前Tesla創辦人馬斯克(Elon Musk)、Google DeepMind聯合創辦人Mustafa Suleyman等116名專家曾向聯合國發公開信,要求全面禁止AI開發殺人武器。

據英國衛報(The Guardian)報道,Google母公司Alphabet旗下的AI開發機構DeepMind,已決定成立專責小組,成員包括內部開發成員及各地專家,研究AI為人類帶來的倫理與社會問題,以及協助將AI用於正途上。

專責小組名為DeepMind Ethics & Society(DMES),目前有8名職員,預計一年內增至25名。小組會定期就AI所引起的私隱、濫用、道德等範疇進行研究報告。

事實上,法律界已開始討論AI引致的法律權責問題,現時未有法例規管AI行為。例如使用AI的自動駕駛系統,若發生交通意外,需負上刑責的人會是駕駛者還是製造者?

若AI聊天機器人(Chatbox)對使用者進行性騷擾;又或是於招聘過程中加入AI,皆因AI是按收到的數據進行分析及決定。若企業有意輸入偏頗資料,如黑人犯罪錄高等資料,讓AI按所輸入的資訊作出冒犯行為,又或是拒絕聘請某種族,公司是否要負上刑責等。有法律專家提倡將「法人」概念伸延至AI機器,但在法律界至今還未有明確定論。

【其他熱話】日本治愈系貓攬枕  掃下背識擺尾【有片】

【其他熱話】Dropbox 10歲大變身 Logo變七彩【有片】